KI sieht, hört und handelt – Von Vision Models zu humanoiden Robotern

Status
Kurs buchbar Kurs buchbar
Kursnr.
261-37110
Beginn
Do., 16.07.2026,
18:00 - 19:30 Uhr
Dauer
1x
Gebühr
15,00 €
Die nächste Entwicklungsstufe der KI führt in die Welt der „Embodied Intelligence“: humanoide Roboter, die Wahrnehmung, Sprache und Problemlösen verbinden und daraus eigenständige Handlungen ableiten. Sie verwischen die Grenze zwischen digitaler und physischer Intelligenz und uns näher an die Vorstellung eines echten „Roboter-Assistenten“ bringen.
Inhalte des Vortrags:
Multimodale Modelle: Wie moderne KI-Modelle wie GPT-4o, Gemini 2.0 und Claude 3.5 in der Lage sind, Sprache, Bild und Ton zu kombinieren, um die Welt ganzheitlich zu verstehen.
Computer Vision 2026: Vom bloßen Erkennen von Bildern hin zum echten Verstehen von Szenen – wie KI in Zukunft komplexe visuelle Eindrücke interpretieren wird.
Vision-Language-Modelle (VLMs): Wie diese Modelle als Grundlage für die Entwicklung autonomer Roboter dienen, die in der Lage sind, ihre Umgebung zu erkennen und darauf zu reagieren.
Humanoide Roboter: Welche humanoiden Roboter sind bereits in Entwicklung oder sogar vorbestellbar, wie der X1 Robotics für etwa 20.000 €?
Marktpotenzial: Warum NVIDIA den Markt für humanoide Roboter bis 2050 auf über fünf Billionen US-Dollar schätzt und welche wirtschaftlichen Auswirkungen dies haben könnte.

Dieser Vortrag vermittelt Ihnen einen klaren Einblick in eine der fortschrittlichsten Entwicklungen im Bereich der KI: die Robotertechnik. Anhand von aktuellen Beispielen aus der Industrie, Logistik und dem Alltag wird sichtbar, warum Roboter längst schon keine Zukunftsvision mehr darstellen, sondern dass sie schon heute in vielen Bereichen unseres Lebens eine entscheidende Rolle spielen.

Kurstermine

Anzahl: 1
Datum

16.07.2026

Uhrzeit

18:00 - 19:30 Uhr

Ort

Raiffeisenallee 6, vhs Kurszentrum; Raum 5, Raiffeisenallee 6, Oberhaching



Kursort

Raum 5 vhs Kurszentrum
Raiffeisenallee 6
82041 Oberhaching